IMI-Standpunkt 2025/059 - in: ak (Analyse & Kritik) 720.

Tödliche Technologie

KI spielt in Kriegen eine zunehmend wichtige Rolle

von: Christoph Marischka | Veröffentlicht am: 26. November 2025

Drucken

Hier finden sich ähnliche Artikel

Die Nichtregierungsorganisation Future of Life Institute veröffentlichte 2017 ein siebenminütiges Video unter dem Titel »Slaughterbots«, das vor dem Einsatz künstlicher Intelligenz in Waffensystemen warnen sollte. Konkreter Gegenstand dieses Near-Future-Szenarios sind Schwärme kleinerer Kamikazedrohnen, die Universitäts- und Parlamentsgebäude attackieren und dabei gezielt Anhänger*innen einer (nicht ausgeführten) politischen Position töteten. Fiktive Ausschnitte von Nachrichtensendungen und Interviews sollen verdeutlichen, dass völlig unklar ist, wer hinter den Angriffen steckt, wo die nächsten stattfinden sollen und wie man sich dagegen schützen könnte. Eingeleitet wird das Video mit einem typischen Auftritt eines Big-Tech-Funktionärs, der diese Systeme bewirbt und verspricht: Sie können damit eine halbe Stadt auslöschen – und zwar die richtige Hälfte der Stadt. Zum Schluss ergreift mit Stuart J. Russell einer der weltweit bekanntesten KI-Forscher das Wort. Das Video zeige die potenziellen Folgen der Militarisierung und der Integration bereits bestehender Technologien, noch bestehe ein Möglichkeitsfenster, solche Entwicklungen zu verhindern. Dieses Fenster aber schließe sich rasch.

Versuch einer Ächtung

Der NGO-Kurzfilm soll die Bemühungen der Vereinten Nationen stützen, eine Ächtung sogenannter letaler autonomer Waffensysteme (LAWS) – umgangssprachlich und zugespitzt »Killerroboter« – zu erreichen. Der UN-Generalsekretär und eine Mehrheit der Mitgliedsstaaten stehen hinter der Forderung, die technologisch und militärisch führenden Staaten blockieren, Deutschland positionierte sich ambivalent und brachte damit die Bemühungen nicht voran. 2021 legte ein UN-Expert*innenbericht nahe, dass im Jahr zuvor Quadrocopter des türkischen Waffenherstellers STM in Libyen als LAWS eingesetzt worden seien und fliehende Truppen des Warlords Khalifa Haftar eigenständig auf der Grundlage von Mustererkennung angegriffen hätten. Ebenfalls 2020 fand der letzte Krieg zwischen Aserbaidschan und Armenien statt, in dem Drohnen, vor allem aus der Türkei und Israel, laut übereinstimmenden Einschätzungen eine entscheidende Rolle auf Seiten der Angreifer gespielt hätten.

2022 dann erfolgte der russische Einmarsch in die Ukraine, der sich seither für alle Beteiligten zu einem Labor neuer, drohnengestützter Kriegführung entwickelt hat. Ein eindrucksvolles Zeugnis dafür lieferte die New York Times mit einem Beitrag vom März 2025 unter dem Titel »A Thousand Snipers in the Sky«. Dieser Artikel zitiert Schätzungen, wonach mittlerweile 70 Prozent aller Tötungen und Verwundungen in der Ukraine auf Drohnen zurückgingen. Und er zitiert ukrainische Soldaten, die den Horror beschreiben, von einer Drohne verfolgt zu werden. Der Krieg werde »seltsam persönlich« sagen sie, vor Artillerie hätte man noch in Deckung gehen, sich für Sekunden oder Minuten in Sicherheit fühlen können.

Die Ukraine alleine habe 2024 eine Millionen First-Person-View-Drohnen produziert, heißt es dort weiter, Russland behaupte einen täglichen Produktions-Output von 4.000. Das sind Kamikaze-Drohnen, gedacht für den einmaligen und schnellen Verbrauch. Jede einzelne mit Sprengstoff, Hightech, Akkus und Rohstoffen aus aller Welt ausgestattet und gebaut. Während der Einsatz auf beiden Seiten in den ersten Jahren auf jeweils 10.000 pro Monat geschätzt wurde, soll er mittlerweile auf bis zu 60.000 gestiegen sein. Das offizielle Produktionsziel der Ukraine für Drohnen aller Klassen liegt für 2025 bei 4,5 Millionen – das wären 12.000 pro Tag.

Jeden Tag fließen die Erfahrungen an der Front in die Produktion zurück, kommen Drohnen mit neuen Fähigkeiten und neuer Software zum Einsatz. Die betroffenen Soldaten wissen oft gar nicht mehr, ob die angreifende Drohne wirklich von einem Feind im Schützengraben gesteuert wird, im Schwarm oder autonom agiert. Andere Drohnen schlagen eigenständig Ziele vor und verfolgen diese nach Bestätigung einer kommandogebenden Person per Tablet eigenständig bis zum Einschlag.

Das kommt schon ziemlich nahe ran an das Szenario von Slaughterbots, wenngleich die Ziele hier auch noch anhand ihrer (vermeintlichen) Zugehörigkeit zu einer feindlichen Armee ausgemacht werden. Das war bei der israelischen Kriegführung in Gaza anders. Der Journalist und Filmemacher Yuval Abraham enthüllte Ende 2023 und Anfang 2024, dass die IDF in großem Maßstab KI einsetzte, um auch nach Tagen und Wochen intensiver Bombardierung in einem weitgehend bereits zerstörten, dicht besiedelten Gebiet täglich hunderte neue Ziele zu »produzieren«.

Eines dieser Systeme (»Lavender«) hat demnach auf der Basis der Massenüberwachung der palästinensischen Bevölkerung bis zu 37.000 Identitäten produziert, bei denen es sich um potenzielle Militante handle, die dann quasi per Cut & Paste als Ziele festgelegt werden konnten. Die individuelle Prüfung habe nur 20 bis 60 Sekunden gedauert und im Wesentlichen darin bestanden, in eine verknüpfte Audio-Datei hineinzuhören, ob es sich um eine männliche Stimme handelte. Die Angriffe erfolgten dann jedoch meist mit relativ konventionellen Waffensystemen, oft bemannte Flugzeuge mit sogenannten »dummen Bomben« – unpräzise, aber mit besonders großer Zerstörungskraft.

Krieg im Cyberraum

Ein zunächst harmloser erscheinendes Einsatzgebiet militärischer KI erfolgt im sogenannten Cyber- und Informationsraum. Das weite Feld der »Elektronischen Kriegführung« zielt darauf ab, feindliche Kommunikation abzuhören und zu stören sowie eigene Kommunikation zu verschlüsseln und gegen Störungen abzuschirmen – ein ewiges Verstecken und Finden im elektromagnetischen Spektrum, bei dem KI als Mustererkennung und -generierung längst eine zentrale Rolle spielt.

Ganz ähnlich verhält es sich bei der sogenannten Cybersicherheit, wo schädliche Codes in unüberschaubaren Mengen von Information und Kommandos versteckt werden bzw. entdeckt werden sollen. Zum »Organisationsbereich Cyber- und Informationsraum« – quasi eine Teilstreitkraft der Bundeswehr – gehören aber neben der Elektronischen Kriegführung, Cybersicherheit und Cyberoperationen auch das Nachrichtenwesen sowie Einheiten wie das »Zentrum Operative Kommunikation« der Bundeswehr, also die psychologische Kriegsführung.

Der Informationskrieg bzw. die öffentliche Kommunikation werden analog zur Elektronischen Kriegführung und Cybersicherheit verstanden: In der Masse der öffentlichen und privaten Kommunikation gilt es, feindliche und schädliche Narrative aufzufinden, zurückzuverfolgen, zu entfernen oder mit eigenen Narrativen zu »bekämpfen«. In welchem Umfang hier bereits KI (und Privatunternehmen) zum Einsatz kommen, ist in Deutschland nicht bekannt – entsprechende Hinweise gibt es jedoch.

In Israel geht man mit diesem Thema deutlich offener um: Zahlreiche Unternehmen brüsten sich damit, KI-generierte Inhalte zu nutzen, um die Kriegsanstrengungen des Staates zu unterstützen und z.B. Kindern deren Notwendigkeit zu vermitteln. Zu ergänzen ist noch, dass in Deutschland der gesamte Bereich des Cyber- und Informationsraums keine klare Abgrenzung von Frieden und Kriegszustand kennt und entsprechend bereits in Friedenszeit in diesem operiert und »gewirkt« wird. Das setzt sich auch jenseits des Militärischen im engeren Sinne fort.

Im Juni diesen Jahres kündigte Innenminister Dobrindt an, dass die deutschen »Sicherheitsbehörden« – darunter auch die Geheimdienste – »im Kampf gegen hybride Bedrohungen durch Spionage und Sabotage aus dem Ausland stärker auf den Einsatz von Künstlicher Intelligenz setzen«, dafür finanziell, organisatorisch und rechtlich neue Mittel erhalten sollen. Damit könnten die Datenbankstrukturen entstehen, auf deren Grundlage auch in Deutschland KI-basiert »militante« Identitäten identifiziert und bekämpft werden könnten – im Informationsraum oder darüber hinaus.

Koloniales Erbe

Die kritische Forschung zu autonomen Waffensystemen (und auch diejenige zur Digitalisierung) weist zunehmend auch auf deren koloniale Prägung hin: Die Technologien und Datenbanken gehören Unternehmen und Behörden im globalen Norden, ein Großteil der Daten wurde jedoch im globalen Süden extrahiert. Dort wurden die Systeme getestet, in Gaza, in Afghanistan, Jemen, Somalia und vielen weiteren Ländern, die im War on Terror zu Combat Zones mutierten, die quasi als sicherheitsbehördlich forcierter Nebeneffekt als Trial & Error Zone dienten. Und entsprechend sind gerade marginalisierte Bevölkerungsgruppen am stärksten von autonomen Waffensystemen (und digitaler Diskriminierung insgesamt) betroffen.

Das trickreiche am Slaughterbots-Video besteht darin, dass es die weiße Mittel- und Oberschicht westlicher Metropolen als potenzielle Ziele einer »algorithmischen Kriegführung« inszeniert und damit wachrütteln will. Zumindest im »kriegstüchtigen« Deutschland hat das leider nicht funktioniert. Im April dieses Jahres kündigte das Verteidigungsministerium an, weitgehend autonome Kamikazedrohnen – zunächst sollen es wohl 12.000 für 900 Millionen Euro sein – bei deutschen Herstellern zu beschaffen und damit die Produktion anzukurbeln. Damit hat man sich klar gegen eine Ächtung von LAWS positioniert. Kritik fand sich in den kriegstüchtigen Leitmedien so gut wie keine, »Endlich bewaffnete Drohnen für die Bundeswehr« titelte beispielsweise die FAZ. Bei den Startups, die in den letzten Monaten bereits die entsprechenden Produktionskapazitäten aufgebaut hatten, und den Risikokapitalgebern, die das ermöglicht haben, dürften die Korken geknallt haben.

Dieser Text erschien zunächst am 18.11.2025 im Rahmen des Schwerpunktthemas „Künstliche Intelligenz“ in der ak720.